Math'φsics

Menu
  • Acceuil
  • Maths
  • Physique
    • Maths
    • Physique
  • Vecteur gaussien

    Formulaire de report


    Vecteur gaussien \((X_1,\dots,X_d)\)
    Variable aléatoire à valeur dans \({\Bbb R}^d\) dont toute combinaison linéaire de ses élément suit une Loi normale. $$\forall\lambda_1,\dots,\lambda_d,\quad\sum_{j=1}^d\lambda_jX_j\text{ est gaussienne}$$
    • caractérisation : $${\Bbb E}[e^{i\xi\cdot X}]=\exp\left( i\xi\cdot m_X+\frac12\xi^TK_X\xi\right)$$ (via la Fonction caractéristique, avec \(m_X\) l'Espérance et \(K_X\) la Matrice de covariance, et \(\xi^TK_X\xi=\sum^d_{j,k=1}\xi_j\xi_k\operatorname{cov}(X_j,X_k)\))
    •     
    • on écrit alors \(X\sim\mathcal N_d(m_X,N_X)\)
    • propriété importante : si la Matrice de covariance est diagonale par blocs, alors les blocs sont indépendants
    • si \((X_1,\dots,X_n,Y)\) est un vecteur gaussien centré, alors \({\Bbb E}[Y|X_1,\dots,X_n]\) est la Projection orthogonale (\(L^2\)) de \(Y\) sur \(\operatorname{Vect}\{X_1,\dots,X_n\}\)
    •     
    • donc \(\exists\lambda_1,\dots,\lambda_n\in{\Bbb R}\), \({\Bbb E}[Y|X_1,\dots,X_n]=\sum^n_{j=1}\lambda_jX_j\) : la meilleure approximation de \(Y\) connaissant \(X_1,\dots,X_n\) est une combinaison linéaire de \(X_1,\dots,X_n\)
    •     
    • de plus, \(\forall h:{\Bbb R}^n\to{\Bbb R}\) mesurable, \({\Bbb E}[h(Y)|X_1,\dots,X_n]\) est donnée par : $${\Bbb E}[h(Y)|X_1,\dots,X_n]=\int_{\Bbb R} h(y)q_\sigma\left( Y-\sum^n_{j=1}\lambda_j X_j\right)\,dy\quad\text{ avec }\quad \begin{cases} q_\sigma:z\mapsto\frac1{\sigma\sqrt{2\pi} }e^{-z^2/2\sigma^2}\\ \sigma^2={\Bbb E}[(Y-\sum_{j=1}^n\lambda_jX_j)^2]\end{cases}$$
    • si \(m\in{\Bbb R}^d\) et \(K\) est une Matrice symétrique définie positive, alors on peut construire un vecteur gaussien \(X\sim\mathcal N_d(m,K)\)
    • si \(X\) est un vecteur gaussien, alors sa loi est à densité si et seulement si \(K_X\) est inversible, et dans ce cas, la densité est : $$p(x)=\frac1{(2\pi)^{d/2}\sqrt{\operatorname{det} K_X} }\exp\left(-\frac12(x-m_X)^TK_X^{-1}(x-m_X)\right)$$
    • si \(X\sim\mathcal N(m,\Gamma)\), alors \(\langle{X,u}\rangle \sim\mathcal N(\)$\langle{m,u}\rangle $$,$$u^T\Gamma u$$)\(
    •     
    • si \)(u_1,\dots,u_d)\( est une Famille orthogonale, alors \)(\langle{X,u_i}\rangle )_{1\leqslant i\leqslant d}\( est une famille de v.a. Gaussiennes indépendantes 2 à 2
    •         
    • de plus si leurs vecteurs propres associées sont \)(\sigma^2_i)_i\(, alors \)X=\( \)m+\sum^d_{i=1}\langle{X-m,u_i}\rangle u_i\(
    •             
    • si \)(u_1,\dots,u_r)\( est une famille de vecteurs propres pour \)(\sigma_i^2)_i\( avec \)\sigma_i^2\gt 0\(, alors, en posant \)Z_i=\( \)\frac{X_i-m}{\sigma_i}\(, on a \)X=\( \)m+\sum^r_{i=1}\sigma_iZ_iu_i\(
    •                 
    • en particulier, \){\Bbb P}(X\in\;$$m+\operatorname{Im}(\Gamma)$$)=1\(



    Questions de cours

    START
    Ω Basique (+inversé optionnel)
    Recto: Donner un exemple de vecteur gaussien.
    Verso:

    Bonus:
    Carte inversée ?:
    END
    START
    Ω Basique (+inversé optionnel)
    Recto: Donner un exemple de vecteur non gaussien dont toutes les composantes suivent une loi normale.
    Verso:

    Bonus:
    Carte inversée ?:
    END
    Montrer que si \)X\( est un vecteur gaussien, alors \)${\Bbb E}[e^{i\xi\cdot X}]=\exp\left( i\xi\cdot m_X+\frac12\xi^TK_X\xi\right)$$

    \(\xi\cdot X\) est gaussien (via combinaison linéaire), et on peut avoir ses paramètres.


    Montrer que si \(X\) vérifie $${\Bbb E}[e^{i\xi\cdot X}]=\exp\left( i\xi\cdot m+\frac12\xi^TK\xi\right)$$ alors \(X\) est vecteur gaussien, \(m={\Bbb E}[X]\) et \(K=K_X\).

    On reconnaît à la fonction caractéristique que toute combinaison linéaire d'éléments est gaussienne.


    Démontrer :

    On décompose \(\xi=(\gamma,\eta)\), et on décomposé aussi l'espérance et la variance.

    On peut alors montrer que la fonction caractéristique de \(Z\) est le produit des fonctions caractéristiques de \(X\) et \(Y\), ce qui donne l'indépendance.


    Démontrer :

    On pose la projection orthogonale. L'une des propriétés de caractérisations se traduit alors par une covariance nulle.

    La matrice de covariance est donc diagonale par blocs, ce qui se traduit par

    En décomposant l'espérance, on peut donc annuler un côté, ce qui donne que \(Y\) est bien la projection orthogonale.


    Démontrer :

    On utilise le fait que \(K\) est le carré d'une matrice symétrique positive.

    On pose un vecteur gaussien standard \(Y\) et \(X=CY\).

    \(X\) est alors un vecteur gaussien, d'espérance nulle.

    Et on peut vérifier via \(K_X={\Bbb E}[XX^T]\) que sa Matrice de covariance est bien \(K\).


    Démontrer :

    On peut supposer que les v.a. Sont centrées.

    On peut également supposer que \(X=CY\), avec \(Y\) vecteur gaussien standard et \(C^2=K\).

    Si \(K\) n'est pas inversible, alors \(C\) ne l'est pas non plus.

    \(X\) prends donc ses valeurs dans un sous-espace strict (et donc de mesure \(0\)) \(\to\) il ne peut pas être à densité.

    A l'inverse, si \(K\) est inversible, alors \(C\) l'est aussi, et on peut retrouver sa loi via un Changement de variable.



    START
    Ω Basique (+inversé optionnel)
    Recto: Expliquer pourquoi les vecteurs gaussiens sont intéressants en statistiques.
    Verso:
    1. Via le rôle pivot des Loi normales (Transformée de Fourier, Théorème central limite)
    2. Via les interprétations des relations d'indépendancs en terme de géométrique euclidienne (Orthogonalité)

    Bonus:
    Carte inversée ?:
    END

    Exercices


    Puisque \(X_1\) est centré réduit, on a la loi de \(X_1^2\).

    On utilise le fait que c'est un Semigroupe de convolution pour avoir la loi de la somme.

    La densité finale s'obtient avec un dernier Changement de variable.




    On va passer par la Fonction caractéristique, qui caractérise la Loi.

    Cette Fonction caractéristique reste inchangée par l'action de \(O\), ce qui permet de conclure.




    C'est immédiat d'après la question précédente.



  • Rétroliens :
    • Loi conditionnelle
    • Théorème de Cochran
    • Vecteur gaussien standard